无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25 无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25 关键词: AI,模型训练,Toca,Token-wise Caching Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。 来自主题: AI技术研报 5996 点击 2025-02-28 15:06